Jak nauczyliśmy maszyny liczyć i myśleć za nas? Część 50. Rozwój sieci neuronowych
Obecnie obok tradycyjnych sieci typu MLP (i podobnych) bardzo powszechnie używane są sieci tzw. głębokiego uczenia. Mają one wiele warstw ukrytych o zróżnicowanych funkcjach i też odnoszą liczne sukcesy!
W poprzednim odcinku tego cyklu felietonów opisałem eksperyment Franka Rosenblatta, który zbudował pierwszą sieć neuronową rozpoznającą obrazy, nazwaną perceptronem. Zainteresowanie perceptronami było po publikacjach Rosenblatta naprawdę powszechne. Pospiesznie budowali swoje pierwsze perceptrony Japończycy, Francuzi, Niemcy, Włosi (którzy nazywali swój perceptron „Pandemonium”) oraz Rosjanie. Wśród tych ostatnich na wskazanie zasługuje Michaił Mojsiewicz Bongard, który w 1970 r. ideę perceptronu twórczo uogólnił i zaangażował do rozpoznawania formuł matematycznych. To mogła być prawdziwa sensacja w sztucznej inteligencji, niestety Bongard zginął w 1971 r. podczas górskiej wspinaczki i do tego tematu do dziś nikt nie wrócił.
Pierwsze sztuczne sieci neuronowe i ich uczenie
Obok perceptronu Rosenblatta dużą popularnością cieszyła się też sieć MADALINE zbudowana w 1960 r. przez Bernarda Widrowa z Uniwersytetu Stanforda. Sieć ta składała się z adaptacyjnych liniowych elementów nazywanych ADALINE (od Adaptive Linear Element), a ponieważ można je było łączyć w zespoły, stąd literka M w nazwie MADALINE. Sztuczne neurony ADALINE mogły się uczyć na zasadzie elektrochemicznej, a zainteresowanie nimi było na tyle duże, że sieci MADALINE były produkowane i oferowane...
Archiwum Rzeczpospolitej to wygodna wyszukiwarka archiwalnych tekstów opublikowanych na łamach dziennika od 1993 roku. Unikalne źródło wiedzy o Polsce i świecie, wzbogacone o perspektywę ekonomiczną i prawną.
Ponad milion tekstów w jednym miejscu.
Zamów dostęp do pełnego Archiwum "Rzeczpospolitej"
ZamówUnikalna oferta